在以人为本的环境中工作的机器人需要知道场景中存在哪种物体,以及如何掌握和操纵不同情况下的各种对象,以帮助人类在日常任务中。因此,对象识别和抓握是此类机器人的两个关键功能。最先进的解决物体识别并将其抓握为两个单独的问题,同时都使用可视输入。此外,在训练阶段之后,机器人的知识是固定的。在这种情况下,如果机器人面临新的对象类别,则必须从划痕中重新培训以结合新信息而无需灾难性干扰。为了解决这个问题,我们提出了一个深入的学习架构,具有增强的存储器能力来处理开放式对象识别和同时抓握。特别地,我们的方法将物体的多视图作为输入,并共同估计像素 - 方向掌握配置以及作为输出的深度和旋转不变表示。然后通过元主动学习技术使用所获得的表示用于开放式对象识别。我们展示了我们掌握从未见过的对象的方法的能力,并在模拟和现实世界中使用非常少数的例子在现场使用很少的例子快速学习新的对象类别。
translated by 谷歌翻译
高注释成本是将现代深度学习架构应用于临床相关的医疗用例的大量瓶颈,这使得新颖算法的需要从未标记的数据中学习。在这项工作中,我们提出了一种自我监督的方法,可以从未标记的医学图像和遗传数据的大型数据集中学习。我们的方法使用对比损耗对准特征空间中的图像和几种遗传模式。我们设计我们的方法,以将每个人的多种模式集成在同一模型端到端,即使当可用的方式因个人而异)也是如此。我们的程序优于所有在所有评估的下游基准任务上表达最先进的自我监督方法。我们还适应基于梯度的可解释性算法,以更好地了解图像和遗传模式之间学习的跨模型关联。最后,我们对我们模型学到的特征进行了基因组关联研究,揭示了图像与遗传数据之间的有趣关系。
translated by 谷歌翻译